Black Forest Labs выпустили новую модель — Flux.1 Kontext.
Загружаешь картинку, пишешь, что поменять и всё остаётся на месте, кроме того, что ты просишь.
Не нужно тренировать ИИ, чтобы он сохранял человека в 1 в 1.
• Персонажи не меняются при правках
• Можно менять кусочек сцены, не трогая фон
• Поддерживает стиль по референсу
Есть три версии:
• Pro — стабильный стиль и персонажи
• Max — максимум точности и мощности
• Dev — опенсорс, пока в закрытой бете.
Доступ только через API в Krea, Freepik, Leonardo, Replicate, Fal и ComfyUI.
Например в Replicate цена на Pro версию $0.04 за генерацию.
Но советую сначала зайти в Playground.
На старте будет 200 кредитов, а одна генерация 4 кредита.
@tips_ai #news
Загружаешь картинку, пишешь, что поменять и всё остаётся на месте, кроме того, что ты просишь.
Не нужно тренировать ИИ, чтобы он сохранял человека в 1 в 1.
• Персонажи не меняются при правках
• Можно менять кусочек сцены, не трогая фон
• Поддерживает стиль по референсу
Есть три версии:
• Pro — стабильный стиль и персонажи
• Max — максимум точности и мощности
• Dev — опенсорс, пока в закрытой бете.
Доступ только через API в Krea, Freepik, Leonardo, Replicate, Fal и ComfyUI.
Например в Replicate цена на Pro версию $0.04 за генерацию.
Но советую сначала зайти в Playground.
На старте будет 200 кредитов, а одна генерация 4 кредита.
@tips_ai #news
Forwarded from Силиконовый Мешок
Новость последних минут Perplexity — запустили Labs, работает только у подписчиков с Pro-аккаунтом (купить за 5 баксов на год)
Сделал краткий перевод описания модуля с их блога ниже. Видимо пока раскатали только на веб-версию, если вы у себя не видите, обновляйте страницу (я раз 10 обновлял)
Perplexity Labs — это «цех идей», который превращает запрос-мысль в готовый результат, а не просто в ответ-текст.
Вот как это работает и зачем вам может пригодиться:
1. Из «машины ответов» в «команду исполнителей».
Если обычный режим Search мгновенно отдаёт справку, а Research (бывший Deep Research) за пару-тройку минут пишет обстоятельный отчёт, то Labs тратит до десяти минут и ведёт полноценный «мини-проект»: ищет в Сети, пишет и запускает код, генерирует графики и изображения, а затем собирает всё это в аккуратный пакет материалов.
2. Файлы без хаоса — вкладка Assets.
Все результаты — CSV, изображения, готовый код, презентации — автоматически клеятся в единую библиотеку проекта. Нужный файл можно скачать одним кликом, ничего не потеряется в бесконечных вложениях почты.
3. Мини-приложения в один клик.
Labs способен с нуля собрать простое веб-приложение: интерактивную панель показателей, слайд-шоу или landing-page. Готовый «App» открывается прямо в браузере, без внешних IDE и деплоя.
4. Сценарии использования — от маркетинга до ужина.
• план маркетинговой кампании с медиапланом и визуалами;
• анализ P&L-отчёта с диаграммами;
• недельное меню с автоматически сгенерированным списком покупок.
Всё это — реальные шаблоны из галереи проектов.
5. Для кого и как запустить.
Функция уже доступна подписчикам Pro в веб-, iOS- и Android-версии Perplexity (десктопные приложения на подходе). В поле выбора режима рядом с Search/Research появится пункт Labs — жмёте, формулируете задачу и отдаёте её «в производство».
Зачем это вам?
⁃ Сэкономить дни рутины. То, что раньше требовало нескучной недели Excel-таблиц и Figma-макетов, теперь собирается за кофейный перерыв.
⁃ Проверить идею «вживую». Вместо абстрактного «а если бы…» — сразу рабочий прототип.
⁃ Думать масштабно. Когда реализация занимает минуты, экспериментировать становится дешевле, а креатив — смелее.
Подытожим: Perplexity Labs — это турбонаддув для ваших проектов: он ищет, анализирует, пишет код, рисует и упаковывает результат, пока вы обдумываете следующий шаг. Запустите Lab один раз — и времени «на подумать» станет гораздо больше, а на рутину — радикально меньше.
Давайте тестить!
Сделал краткий перевод описания модуля с их блога ниже. Видимо пока раскатали только на веб-версию, если вы у себя не видите, обновляйте страницу (я раз 10 обновлял)
Perplexity Labs — это «цех идей», который превращает запрос-мысль в готовый результат, а не просто в ответ-текст.
Вот как это работает и зачем вам может пригодиться:
1. Из «машины ответов» в «команду исполнителей».
Если обычный режим Search мгновенно отдаёт справку, а Research (бывший Deep Research) за пару-тройку минут пишет обстоятельный отчёт, то Labs тратит до десяти минут и ведёт полноценный «мини-проект»: ищет в Сети, пишет и запускает код, генерирует графики и изображения, а затем собирает всё это в аккуратный пакет материалов.
2. Файлы без хаоса — вкладка Assets.
Все результаты — CSV, изображения, готовый код, презентации — автоматически клеятся в единую библиотеку проекта. Нужный файл можно скачать одним кликом, ничего не потеряется в бесконечных вложениях почты.
3. Мини-приложения в один клик.
Labs способен с нуля собрать простое веб-приложение: интерактивную панель показателей, слайд-шоу или landing-page. Готовый «App» открывается прямо в браузере, без внешних IDE и деплоя.
4. Сценарии использования — от маркетинга до ужина.
• план маркетинговой кампании с медиапланом и визуалами;
• анализ P&L-отчёта с диаграммами;
• недельное меню с автоматически сгенерированным списком покупок.
Всё это — реальные шаблоны из галереи проектов.
5. Для кого и как запустить.
Функция уже доступна подписчикам Pro в веб-, iOS- и Android-версии Perplexity (десктопные приложения на подходе). В поле выбора режима рядом с Search/Research появится пункт Labs — жмёте, формулируете задачу и отдаёте её «в производство».
Зачем это вам?
⁃ Сэкономить дни рутины. То, что раньше требовало нескучной недели Excel-таблиц и Figma-макетов, теперь собирается за кофейный перерыв.
⁃ Проверить идею «вживую». Вместо абстрактного «а если бы…» — сразу рабочий прототип.
⁃ Думать масштабно. Когда реализация занимает минуты, экспериментировать становится дешевле, а креатив — смелее.
Подытожим: Perplexity Labs — это турбонаддув для ваших проектов: он ищет, анализирует, пишет код, рисует и упаковывает результат, пока вы обдумываете следующий шаг. Запустите Lab один раз — и времени «на подумать» станет гораздо больше, а на рутину — радикально меньше.
Давайте тестить!
Стоматолог — вы неправильно чистите зубы.
Тренер — вы неправильно приседаете.
Родственники — вы неправильно живете.
Claude — вы абсолютно правы!
@tips_ai
Тренер — вы неправильно приседаете.
Родственники — вы неправильно живете.
Claude — вы абсолютно правы!
@tips_ai
🤗 На Hugging Face появилась интересная демка Chain-of-Zoom — это способ увеличивать зум на изображениях в несколько этапов, аккуратно и без потери качества.
Вместо того чтобы один раз растянуть картинку и получить мыло, модель делает это по шагам и добавляет текстовые подсказки, чтобы сохранить детали.
• Поиграться можно на [HG]
• [GitHub]
@tips_ai #tools
Вместо того чтобы один раз растянуть картинку и получить мыло, модель делает это по шагам и добавляет текстовые подсказки, чтобы сохранить детали.
• Поиграться можно на [HG]
• [GitHub]
@tips_ai #tools
Media is too big
VIEW IN TELEGRAM
Раньше все AI-интерфейсы строились вокруг диалога.
Ты пишешь, модель отвечает и так по кругу, пока не добьёшься нужного результата.
Но это начинает казаться архаичным.
Потому что, появляются агенты, которые всё делают сами и на первый план выходит интерфейс вокруг действия, а не разговора.
• Чат теперь не главная сцена, а служебный элемент.
• Результаты выносят в отдельную зону: канвас, документы, код.
• Агенты, которые работают в фоне: ты просто ставишь задачу, они всё делают сами.
Отличный пример — интерфейс Genspark AI или Manus.
То есть ты видишь и свои запросы, и то, что ИИ делает одновременно.
Интерфейсы подстраиваются под это, возможно и правильно.
Главное теперь не общение, а результат.
И вот живой пример: парень работает на двух мониторах — на одном пишет промты, а на втором сразу 12 агентов Claude 4 opus код строчат😃
@tips_ai
Ты пишешь, модель отвечает и так по кругу, пока не добьёшься нужного результата.
Но это начинает казаться архаичным.
Потому что, появляются агенты, которые всё делают сами и на первый план выходит интерфейс вокруг действия, а не разговора.
• Чат теперь не главная сцена, а служебный элемент.
• Результаты выносят в отдельную зону: канвас, документы, код.
• Агенты, которые работают в фоне: ты просто ставишь задачу, они всё делают сами.
Отличный пример — интерфейс Genspark AI или Manus.
То есть ты видишь и свои запросы, и то, что ИИ делает одновременно.
Интерфейсы подстраиваются под это, возможно и правильно.
Главное теперь не общение, а результат.
И вот живой пример: парень работает на двух мониторах — на одном пишет промты, а на втором сразу 12 агентов Claude 4 opus код строчат
@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
FlyMy.AI ребята из нашего канала выкатили — Agent M1.
Мультимодального AI-агента, построенного на open-weight моделях и по метрикам обходит предыдущего лидера, нашумевший на прошлой неделе ByteDance Bagel, и даже OpenAI Image 1 по некоторым параметрам.
Лучше справляется с генерацией без лишнего текста, точнее сохраняет лица, умеет в видео и стоит дешевле.
Агент сам выбирает нужную модель под задачу.
Главное хорошо держит лицо: если делаете аватар или видео, будет реально похож на оригинал.
FlyMy.AI — это единый API для генерации всего подряд: картинки, видео, смена внешности, LoRA — всё через один интерфейс.
Попробуйте их API-ключ или протестируйте на сайте [тут].
@tips_ai #tools
Мультимодального AI-агента, построенного на open-weight моделях и по метрикам обходит предыдущего лидера, нашумевший на прошлой неделе ByteDance Bagel, и даже OpenAI Image 1 по некоторым параметрам.
Лучше справляется с генерацией без лишнего текста, точнее сохраняет лица, умеет в видео и стоит дешевле.
Агент сам выбирает нужную модель под задачу.
Главное хорошо держит лицо: если делаете аватар или видео, будет реально похож на оригинал.
FlyMy.AI — это единый API для генерации всего подряд: картинки, видео, смена внешности, LoRA — всё через один интерфейс.
Попробуйте их API-ключ или протестируйте на сайте [тут].
@tips_ai #tools
Media is too big
VIEW IN TELEGRAM
Anthropic недавно выложили бесплатный курс AI Fluency, и он не про промты, а про подход.
Курс про то, как описывать задачу, чтобы модель поняла, чего ты хочешь.
Как оценить результат, а не просто принять его.
По сути, учат думать в режиме итераций:
• описал
• получил
• оценил
• уточнил
• повторил
И так до нужного уровня качества.
Чем лучше ты формулируешь и понимаешь задачу, тем сильнее становится модель в твоих руках.
И наоборот, если не знаешь, чего хочешь, AI точно не поможет.
Там есть фреймворк, который прописан пошагово.
Есть идеи, как сделать AI частью своих рабочих процессов: не хаотично, а системно.
И даже как выстраивать свою личную AI политику, когда и для чего ты вообще его включаешь.
Мне понравилось, потому что учат не [научи меня промптить], а про то, как [думать и работать с ИИ].
👉 Ссылка на курс [тут]
@tips_ai #news
Курс про то, как описывать задачу, чтобы модель поняла, чего ты хочешь.
Как оценить результат, а не просто принять его.
По сути, учат думать в режиме итераций:
• описал
• получил
• оценил
• уточнил
• повторил
И так до нужного уровня качества.
Чем лучше ты формулируешь и понимаешь задачу, тем сильнее становится модель в твоих руках.
И наоборот, если не знаешь, чего хочешь, AI точно не поможет.
Там есть фреймворк, который прописан пошагово.
Есть идеи, как сделать AI частью своих рабочих процессов: не хаотично, а системно.
И даже как выстраивать свою личную AI политику, когда и для чего ты вообще его включаешь.
Мне понравилось, потому что учат не [научи меня промптить], а про то, как [думать и работать с ИИ].
@tips_ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Про Veo3
На Flow доступ к ней стоит $250 — удовольствие не из дешёвых.
Но я попробовал у ребят из syntxaibot.
Они недавно добавили Veo3, и теперь не нужно танцевать с бубном, чтобы просто сгенерировать вирусный ролик.
Ролики от Veo3 сейчас хорошо набирают в TikTok и Reels.
Люди либо не понимают, это фейк или съёмка, либо просто ржут с происходящего.
Что я, собственно, и сделал🤌
Ответка от Дурова по поводу grok😏
@tips_ai
На Flow доступ к ней стоит $250 — удовольствие не из дешёвых.
Но я попробовал у ребят из syntxaibot.
Они недавно добавили Veo3, и теперь не нужно танцевать с бубном, чтобы просто сгенерировать вирусный ролик.
Ролики от Veo3 сейчас хорошо набирают в TikTok и Reels.
Люди либо не понимают, это фейк или съёмка, либо просто ржут с происходящего.
Что я, собственно, и сделал
Ответка от Дурова по поводу grok
@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Сейчас открыл ChatGPT — сразу заметил новые фишки.
А потом ещё и стрим параллельно включил, где всё подробно разложили.
ChatGPT теперь может сам копаться в ваших письмах, календаре и файлах в облаке (Google, Microsoft, GitHub и пр.).
• Подключается к корпоративным базам знаний через коннекторы
• Можно использовать Deep Research, чтобы сам находил нужное среди всего хлама
• На macOS появился диктофон: включил на встрече — получил краткое резюме
И то, что мне нужно: анонсировали record mode.
GPT сам подключается к Zoom, Meet, Teams, забирает всё, что обсуждали, делает сводку, превращает в текст, таблицу, документ — что угодно.
Все эти штуки пока только для Team и Enterprise.
@tips_ai #news
А потом ещё и стрим параллельно включил, где всё подробно разложили.
ChatGPT теперь может сам копаться в ваших письмах, календаре и файлах в облаке (Google, Microsoft, GitHub и пр.).
• Подключается к корпоративным базам знаний через коннекторы
• Можно использовать Deep Research, чтобы сам находил нужное среди всего хлама
• На macOS появился диктофон: включил на встрече — получил краткое резюме
И то, что мне нужно: анонсировали record mode.
GPT сам подключается к Zoom, Meet, Teams, забирает всё, что обсуждали, делает сводку, превращает в текст, таблицу, документ — что угодно.
Все эти штуки пока только для Team и Enterprise.
@tips_ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
ElevenLabs выкатили v3 (alpha) — и это то, что давно всем не хватало.
Озвучка текста теперь с эмоциями, паузами и интонацией.
Модель понимает текст, чувствует эмоции, меняет тон, делает паузы.
Управляется через аудио-теги: [sad], [angry], [laughs], [whispers], их там намного больше.
Поддерживает 70+ языков и многоголосые диалоги.
Сейчас альфа версия, но уже [доступна]
@tips_ai #news
Озвучка текста теперь с эмоциями, паузами и интонацией.
Модель понимает текст, чувствует эмоции, меняет тон, делает паузы.
Управляется через аудио-теги: [sad], [angry], [laughs], [whispers], их там намного больше.
Поддерживает 70+ языков и многоголосые диалоги.
Сейчас альфа версия, но уже [доступна]
@tips_ai #news
Как мы используем ИИ в разработке нашего бота для расшифровки речи
У нас есть тестовая копия бота, где мы проверяем новые фичи.
Когда собираемся на еженедельный созвон и начинаем кидаться идеями: давайте тут кнопку, а тут бы попроще интерфейс и тд.
Чтобы это увидеть и попробовать, мы просто просим Claude Code реализовать это прямо на созвоне.
Уже смеялись: вот бы агента, который будет сидеть с нами на звонке, фиксировать наши идеи и во время звонка писать код на основе наших идей🍸
Но мы не программисты — у нас есть один прогер для реализации наших решений в прод. Если не работает — просим разработчика👨💻
Недавно Даниэль (фронтенд-разработчик в Яндексе) писал в своем канале, как у них ИИ уже стал частью повседневной работы: нейро-ревью кода, автосводки по PR’ам, внутренние AI-сервисы, расширения для IDE.
Там же поделился своими инструментами, с которыми сам работает каждый день.
Например, вместо базового поиска он использует Perplexity
Читаешь и понимаешь, что ИИ перестал быть чем-то на перспективу.
Это уже естественный рабочий инструмент. Просто у них этим пользуются сотни команд, а у нас три человека.
Не нужно быть гением, чтобы пользоваться ИИ.
Нужно просто начать🚶♂️
@tips_ai
У нас есть тестовая копия бота, где мы проверяем новые фичи.
Когда собираемся на еженедельный созвон и начинаем кидаться идеями: давайте тут кнопку, а тут бы попроще интерфейс и тд.
Чтобы это увидеть и попробовать, мы просто просим Claude Code реализовать это прямо на созвоне.
Уже смеялись: вот бы агента, который будет сидеть с нами на звонке, фиксировать наши идеи и во время звонка писать код на основе наших идей
Но мы не программисты — у нас есть один прогер для реализации наших решений в прод. Если не работает — просим разработчика
Недавно Даниэль (фронтенд-разработчик в Яндексе) писал в своем канале, как у них ИИ уже стал частью повседневной работы: нейро-ревью кода, автосводки по PR’ам, внутренние AI-сервисы, расширения для IDE.
Там же поделился своими инструментами, с которыми сам работает каждый день.
Например, вместо базового поиска он использует Perplexity
Читаешь и понимаешь, что ИИ перестал быть чем-то на перспективу.
Это уже естественный рабочий инструмент. Просто у них этим пользуются сотни команд, а у нас три человека.
Не нужно быть гением, чтобы пользоваться ИИ.
Нужно просто начать
@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Попросил четыре разных ИИ назвать случайное число от 1 до 25.
ChatGPT — 17
Claude — 17
Grok — 17
Gemini — 17
LLM не генерируют рандом, они предсказывают, что бы ответил человек.
А человек, как выяснилось, почему-то часто называет именно 17.
Если используешь ИИ без настройки и своих данных — ты получаешь ровно то, что и все остальные👉
Та же модель —> те же ответы
Настоящая польза, когда ты вносишь что-то своё: черновики, задачи, переписки, мысли и др.
Когда модель знает, как ты думаешь, что тебе важно, как ты пишешь и какие решения принимаешь — она перестаёт быть просто ассистентом и становится продолжением твоей головы.
Иначе это просто общий шаблон в красивой обертке.
@tips_ai
ChatGPT — 17
Claude — 17
Grok — 17
Gemini — 17
LLM не генерируют рандом, они предсказывают, что бы ответил человек.
А человек, как выяснилось, почему-то часто называет именно 17.
Если используешь ИИ без настройки и своих данных — ты получаешь ровно то, что и все остальные
Та же модель —> те же ответы
Настоящая польза, когда ты вносишь что-то своё: черновики, задачи, переписки, мысли и др.
Когда модель знает, как ты думаешь, что тебе важно, как ты пишешь и какие решения принимаешь — она перестаёт быть просто ассистентом и становится продолжением твоей головы.
Иначе это просто общий шаблон в красивой обертке.
@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
How-Anthropic-teams-use-Claude-Code_v2.pdf
5.9 MB
———
Anthropic недавно выложили полный обзор: как их команда используют Claude Code — от разработчиков продуктов до специалистов по маркетингу и юристов.
Если вы новичок в Claude Code, то сначала посмотрите свежий [ролик], где Борис (ведущий инженер) и Алекс (руководитель по работе с разработчиками) обсуждают Claude Code, и делятся советами.
Claude Code можно использовать в подписке Pro для коротких cессий (~1-2 часа) в небольших кодовых базах.
Для истинных вайбкодеров — нужна подписка Max.
@tips_ai #news
Anthropic недавно выложили полный обзор: как их команда используют Claude Code — от разработчиков продуктов до специалистов по маркетингу и юристов.
Если вы новичок в Claude Code, то сначала посмотрите свежий [ролик], где Борис (ведущий инженер) и Алекс (руководитель по работе с разработчиками) обсуждают Claude Code, и делятся советами.
Claude Code можно использовать в подписке Pro для коротких cессий (~1-2 часа) в небольших кодовых базах.
Для истинных вайбкодеров — нужна подписка Max.
@tips_ai #news
Посмотрел вчера презентацию Apple — ну что сказать, они показали iOS 26 похожую на Windows Vista 😅
Серьёзно, мне жаль, но это правда выглядело ужасно.
Думаю, вы сами всё видели и тоже это поняли.
Даже превью к трансляции уже как бы намекал🤫
@tips_ai
Серьёзно, мне жаль, но это правда выглядело ужасно.
Думаю, вы сами всё видели и тоже это поняли.
Даже превью к трансляции уже как бы намекал
@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
У меня появилась новая модель o3 Pro.
o3 Pro — это модель для глубокого анализа и лучше работать с ней, когда даешь больше контекста в промпт.
Будет доступна для подписок Pro и Team, заменив предыдущую модель o1-pro.
o3-pro отличается от модели o1-pro тем, что имеет доступ к инструментам: веб-поиск, анализ файлов и их загрузка, а не только изображений, как o1-pro.
Но я думаю, что мне и вам — в большинстве случаев устроит обычный o3😏
@tips_ai #news
o3 Pro — это модель для глубокого анализа и лучше работать с ней, когда даешь больше контекста в промпт.
Будет доступна для подписок Pro и Team, заменив предыдущую модель o1-pro.
o3-pro отличается от модели o1-pro тем, что имеет доступ к инструментам: веб-поиск, анализ файлов и их загрузка, а не только изображений, как o1-pro.
Но я думаю, что мне и вам — в большинстве случаев устроит обычный o3
@tips_ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM